Sascha Oehl, Manager Presales Strategic Accounts, Hitachi Data Systems
Disk-Backup-Lösungen sind ideal für die tägliche Datensicherung geeignet, denn diese Backup-Architektur bietet wesentliche Geschwindigkeitsvorteile gegenüber Tape-Lösungen. Trotzdem sollten Administratoren eine kombinierte Lösung – also zuerst Disk, dann Tape-Laufwerk (D2D2T) – nicht außen vor lassen; sie macht Sinn, wenn beispielsweise kostengünstige Langzeitspeicherung gefragt ist. Eine weitere ergänzende Technologie, mit der sich Administratoren wohl befassen müssen, ist Deduplizierung; sie passt aber nicht für alle Daten.
Wir sprachen mit Sascha Oehl, Manager Presales Strategic Accounts bei Hitachi Data Systems
Was treibt die Nachfrage nach Disk-Backup derzeit stärker: Das einfachere Handling der Backup-Daten oder eher die Möglichkeit, ein Recovery schneller und einfacher vorzunehmen?
Oehl: Unternehmen und ihre Mitarbeiter achten momentan mehr denn je auf das Thema Wirtschaftlichkeit. Der Blickwinkel dabei hat sich erweitert und ist nicht mehr auf Anschaffungskosten fokussiert. Anders als in der Vergangenheit werden nun die echten Kosten und damit alle anfallenden Kostenblöcke untersucht. Hierbei stellen die Verantwortlichen auch Dinge auf den Prüfstand, die sonst nicht gerne verändert werden. Ein Beispiel ist das Backup: Aspekte wie das Handling der Tapes werden wieder bewusst wahrgenommen – und zwar nicht nur als unkomfortabel, sondern eben auch als teuer.
Welche Punkte sollten Unternehmen, vor allem KMUs beachten, wenn sie vor der Auswahl eines Disk-Backup-Systems stehen? Wie sieht ein typisches Szenario aus?
Oehl: Typischerweise gibt es ein Backup-System, das vor vielen Jahren beschafft wurde. Die Server-Hardware wurde erneuert und jetzt laufen die Tapes aus der Wartung. In dieser Phase gehen Unternehmen das Thema Disk-Backup oft an, was jedoch die Entscheidung erschwert: Zu diesem Zeitpunkt stellt sich nämlich in der Regel nicht mehr die Frage nach einer integrierten und zukunftsfähigen Lösung, sondern nach einem Puzzlestück.
Eine Disk-Backup-Lösung kann nicht losgelöst vom Backup-System oder autark daneben bestehen. Die Integration beider Komponenten ist nicht nur logisch aus Sicht des Managements und der Administration, sondern auch notwendig, wenn die Arbeitsabläufe optimiert werden sollen.
Bei der Auswahl eines Systems werden Anwender zudem immer wieder verunsichert, weil nicht ihre Bedürfnisse, sondern Listen mit Funktionalitäten und technischen Details von Herstellern im Mittelpunkt stehen – beide Seiten kommunizieren bisweilen nicht zielführend. Das erschwert die richtige Entscheidung; letztlich geht es doch darum, Aufgabe und Lösung aufeinander abzustimmen. Das Ziel sollte stets eine agile und dynamische Infrastruktur sein – der Weg zu diesem Ziel kann variieren und hängt nicht von technischen Spezifikationen ab.
Was sind die Features, auf die Ihrer Meinung nach eher die Unternehmen im Enterprise-Segment bei Disk-Backup-Systemen Wert legen?
Oehl: Die Anforderungen im KMU- und Enterprise-Umfeld ähneln sich mittlerweile sehr. Sowohl die Integration in Management-Systeme als auch das Reporting gehören heute zu den Standardfunktionen, die jedes Unternehmen benötigt.
Die Unterschiede liegen im Wesentlichen nur noch in zwei Hauptfeldern, einmal die Skalierbarkeit, sowohl als Scale-Up als auch als Scale-Out – hier sind die Anforderungen im Enterprise-Sektor höher. Zum anderen spielen bei KMUs Funktionen zur Integration von Remote-Locations in ein zentrales Rechenzentrum eine weniger wichtige Rolle.
Hat sich Deduplizierung bereits als Standardfunktion in Disk-Backup-Systemen etabliert? Wie sehen Sie die Nachfrage nach dieser Funktion? Was sind die typischen Deduplizierungsraten, die sich in der Praxis erreichen lassen?
Oehl: Der Terminus Deduplizierung ist zu einem Standard geworden. Art und Weise, Ergebnisse sowie Aufwand sind jedoch sehr unterschiedlich – und treffen nicht immer die Bedürfnisse der Anwender. Die Deduplizierung ist eine wichtige Technologie, die Kosten sparen kann; allerdings eignet sie sich nicht für jedes Unternehmen. Auch hier gilt, dass vor einer Entscheidung die eigenen Anforderungen sowie Kosten und Nutzen analysiert werden müssen.
Für die zu erreichenden Komprimierungsraten spielen verschiedene Aspekte eine Rolle. Dazu zählen der Backup-Plan, die Anzahl der Vollsicherungen und die Daten der Unternehmen; Stichwort: Was wird gesichert? Daher sind auch die Ergebnisse sehr unterschiedlich. Viele Unternehmen erreichen Raten um die 10:1.
Viele Disk-Backup-Systeme emulieren zugleich eine Virtual-Tape-Library (VTL). Wie stark wird dieses Feature nachgefragt? Eignet sich eine VTL mehr für KMUs oder eher für Enterprise-Umgebungen?
Oehl: Die Emulation einer Tape-Library ist hilfreich für ältere Backup-Systeme, die noch nicht auf den Umgang mit Diskpools ausgelegt sind.
Ist die Backup-Software ab ovo darauf ausgerichtet, um Bandverarbeitung durchzuführen und nur nachträglich um ein Diskpool-Feature ergänzt worden, ist es oft effizienter, eine VTL einzusetzen. Die Backup-Software kann dann wie gehabt die Prozesse einer Bandverarbeitung verwenden. Ist in der Backup-Software die Diskpool-Verarbeitung bereits vorgesehen, bedarf es keiner VTL. Dies wäre nur ein Overhead.
Generell ist es an dieser Stelle wichtig, mit Partnern und Herstellern zusammenzuarbeiten, die in allen Bereichen Lösungen anbieten können. Diese Vorgehensweise ist die Grundlage für eine objektive Beratung und eine fundierte Entscheidung über das weitere Vorgehen.
Für das längerfristige Backup sind aus ökonomischen Gründen nach wie vor Bandlaufwerke am besten geeignet. Offerieren Sie bei Ihren Lösungen eine automatisierte Datenmigration auf andere Speichermedien (ähnlich wie ILM)? Also eine Art D2D2T (Disk-to-Disk-to-Tape)?
Oehl: Da in manchen Fällen die Speicherung auf Tapes als günstiger erscheint, bieten wir diese Möglichkeit an. Entscheidend ist auch hier die Implementierung: In einer Backup-Umgebung muss und soll die Intelligenz in der Backup-Applikation liegen. Hier muss die Kontrolle über die Volumes vorhanden sein, und hier müssen die Daten wiedergefunden werden – unabhängig von der verwendeten Infrastruktur. Entsprechend ist dieser Mechanismus in unserer Backup-Software integriert.
Was muss ein Anwender beachten, wenn er Disk-Backup-Systeme in virtualisierte IT-Umgebungen integriert?
Oehl: Virtualisierte Umgebungen stellen an Disk-Backup-Systeme insofern besondere Anforderungen, als die virtuellen Server nicht immer die gleichen physikalischen Pfade benutzen. Daher ist es wichtig, Systeme zu verwenden, die mit schwankenden, unausgeglichenen Workloads umgehen können.
Die Backup-Software sollte zudem in der Lage sein, neue, virtuelle Maschinen zu erkennen und zu reporten. Darüber hinaus muss die Lösung automatisch mit einer Mindestsicherheit Backups durchführen, egal wohin die Maschine physikalisch wandert.
Mit welcher technischen Entwicklung dürfen IT-Leiter/Administratoren bei Disk-Backup und Deduplizierung in den kommenden zwei bis drei Jahren rechnen?
Oehl: In den letzten Jahren lag der Fokus vielfach auf technologischen Funktionen. In der Zukunft werden die einfache Nutzung, die Robustheit und die Automatisierung den größeren Stellenwert einnehmen. Dies unterstreicht den allgemeinen Trend der IT, Arbeitsschritte zu vereinfachen und zu optimieren.